iT邦幫忙

2023 iThome 鐵人賽

DAY 16
0
AI & Data

紮實的ML機器學習原理~打造你對資料使用sklearn的靈敏度系列 第 16

DAY 16 「模型融合(Model Ensemble)」落地AI除了集成演算法外必學的另一種思路~

  • 分享至 

  • xImage
  •  

通過結合多個模型的預測結果提升整體性能

/images/emoticon/emoticon06.gif白話說就是將多個獨立訓練的機器學習模型整合在一起以提升整體性能的技術可以降低過擬合風險,提高泛化能力,從而在許多情況下提高模型的準確性和穩定性~

  • 投票(Voting):
    投票法是一種簡單的模型融合方法,它基於多個模型的預測結果進行投票或平均來產生最終的預測結果。
    分為硬投票和軟投票兩種形式,硬投票是取多個模型中預測結果中出現次數最多的類別,軟投票是取多個模型的平均概率值。

  • 平均(Averaging):
    平均法是將多個模型的預測結果進行平均,對於分類任務可以是概率平均,對於回歸任務可以是數值平均。

  • 堆疊(Stacking):
    堆疊法通過構建一個元模型,將多個基礎模型的預測結果作為輸入,再進行一次訓練來得到最終的預測結果。

  • 融合特征(Feature Engineering):
    使用多個模型的預測結果作為特征,與原始特征一起訓練一個元模型。

  • Blending:
    類似於堆疊,但通常只用一部分數據來訓練第二層模型。

  • Bagging 和 Boosting:
    通過訓練多個基模型,並結合它們的預測結果,以降低過擬合的風險。


選擇模型融合方法:

模型多樣性:
選擇不同類型的模型或不同參數配置的同一類型模型,確保模型的多樣性。

數據多樣性:
確保訓練集和測試集的分布相似,避免模型過擬合特定數據集。

模型性能:
選擇性能相對獨立的模型,避免過於相似的模型。

模型穩定性:
確保各個模型的性能穩定,避免出現過於不穩定的模型。

計算資源:
考慮到模型融合可能需要更多的計算資源,根據資源限制選擇適合的方法。


上一篇
DAY 15 「樸素貝葉斯優化HyperOpt&Optuna&GPyOpt&Scikit-Optimize」大魔王教你超級強大自動優化sklearn參數啦~
下一篇
DAY 17 「HyperOpt」分布式異步優化的Python庫~
系列文
紮實的ML機器學習原理~打造你對資料使用sklearn的靈敏度30
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言